Hassrede im Netz – Digitalen Antisemitismus erfassen

Hassrede im Netz – Digitalen Antisemitismus erfassen

Organizer(s)
Zentrum für Antisemitismusforschung, Technische Universität Berlin
Location
Berlin
Country
Germany
Took place
Hybrid
From - Until
19.10.2022 - 19.10.2022
By
Joseph Wilson, Zentrum für Antisemitismusforschung – Forschungsinstitut Gesellschaftlicher Zusammenhalt, Technische Universität Berlin

Wie lassen sich Hassrede und Antisemitismus im Internet im Allgemeinen und in den sozialen Medien im Besonderen erkennen und erfassen? Welche Entwicklungen sind zu beobachten, und können Künstliche Intelligenz und Deep Learning im Kampf gegen Onlinehassrede (bereits) helfen? Die Tagung versammelte Expert:innen aus Linguistik, Bild- und Extremismusforschung, Kommunikationswissenschaften und dem Data-Science-Bereich, um potentielle Antworten auf diese Fragen zu entwickeln und aktuelle Forschungsansätze zu diskutieren.

Digitaler Antisemitismus äußert sich häufig in Verbindung zu aktuellen internationalen Ereignissen. Veranstalter MATTHIAS J. BECKER (Berlin) eröffnete die Tagung mit einem Verweis auf das Forschungsprojekt „Decoding Antisemitism“ am Zentrum für Antisemitismusforschung. Im kürzlich erschienenen 4. Diskursreport des Projektes werden antisemitische Äußerung im Zusammenhang mit der russischen Invasion in der Ukraine sowie den Terroranschlägen in Israel Anfang des Jahres 2022 besprochen. Besonders im Kontext des Ukrainekriegs beobachten die Forscher:innen, dass in sozialen Netzwerken antisemitische Narrative und Vergleiche zum Nationalsozialismus häufig verstärkt und zugleich über kommunikative Umwege artikuliert werden. Gerade solche subtilen Codes stellen eine Herausforderung für KI-Learning dar, da kontextuelles Wissen für das Erkennen der antisemitischen Äußerungen notwendig ist. Hier setzt das Forschungsprojekt „Decoding Antisemitism“ an, wie Becker weiter erläuterte. Ein internationales Team aus neun Forscher:innen untersucht Onlinedebatten, die sich auf Diskursereignisse beziehen, um einerseits verbalen und visuellen Antisemitismus online in seiner ganzen Bandbreite zu erfassen und andererseits, um eine KI mit den annotierten Daten zu füttern sowie quantitative Untersuchungen zu ermöglichen.

Bezugnehmend auf ihr 2019 veröffentlichtes Buch „Radikalisierungsmaschinen“ skizzierte JULIA EBNER (London) Strategien der Neuen Rechten, um Onlinedebatten zu manipulieren und für eigene Zwecke zu nutzen. Auf alternativen Plattformen wie z.B. Imageboards werden alte und neue Verschwörungsmythen häufig auf satirische und humoristische Art besprochen und diskutiert. Hass gegen Frauen, Hass gegen die LGBTQI-Community, Impfgegner:innen-Narrative und Klimawandelskepsis mischen sich dabei mit antisemitischen Narrativen. Influencer:innen wie Kanye West (Ye) oder Attila Hildmann tragen diese Narrative anschließend in die großen medialen Plattformen und fördern insofern eine Radikalisierung des Mainstreams.

Wie Jugendliche mit Antisemitismus in Berührung kommen, ist Gegenstand des Forschungsprojekts „Respond!“, das JANNIS NIEDICK (Potsdam) vorstellte. 47 junge Menschen wurden aufgefordert, 21 Tage lang ihren Medienkonsum zu beobachten und alle Beiträge im Zusammenhang mit jüdischem Leben, Nationalsozialismus und dem Israel-Palästina-Konflikt zu dokumentieren. In einer anschließenden qualitativen Inhaltsanalyse konnte das Forschungsteam feststellen, dass auch in dieser Untersuchung der Ukrainekrieg das zentrale Ereignis darstellt. Berichte über den Kriegsverlauf oder die Aufnahme von jüdischen Waisenkindern sind stets mit Analogien zum Israel-Palästina-Konflikt verknüpft. Niedick stellte fest, dass israelbezogener Antisemitismus die maßgebliche Erscheinungsform von Antisemitismus in ihren Beobachtungen darstellt und letztendlich zu einer Delegitimisierung und Dämonisierung Israels führt.

Über visuelle Ausdrucksformen des digitalen Antisemitismus referierte MARCUS SCHEIBER (Berlin) in einem Vortrag zu Memes als multimodalem Kommunikationsformat. Memes – in der Regel Grafiken bzw. Fotografien mit humoristischem Inhalt – forcieren eine prototypische Lesart und Interpretation innerhalb eines Wissensrahmens. Sie funktionieren dabei Templates (Vorlagen) und können innerhalb ihres Verwendungskontextes für unterschiedliche Zwecke nutzbar gemacht werden. Antisemitische Inhalte werden dabei auch implizit in Form von rhetorischen Fragen und Andeutungen transportiert. Die ursprünglich auf Imageboards verwendeten Memes haben mittlerweile Einzug in alle Kommunikationsplattformen gehalten und fördern eine Normalisierung antisemitischer Narrative.

Mit den Gefahren, die von den Agitationen des bereits von Julia Ebner erwähnten Influencers Attila Hildmann ausgehen, beschäftigte sich ALEXA KRUGEL (Berlin). Sie untersuchte Telegram-Nachrichten Hildmanns während der bundesweiten Coronaschutzmaßnahmen zu Beginn der Covid-19-Pandemie im Frühjahr 2020. Hildmann, der als veganer Kochbuchautor Bekanntheit erlangte, kommunizierte offenen, expliziten Antisemitismus, indem er die Behauptung aufstellte, dass Corona eine jüdische Erfindung sei, um die Weltwirtschaft zu zerstören und einen jüdischen Weltstaat zu etablieren. In den gegenüber Jüdinnen und Juden zugeschriebenen Attributen wie Homosexualität, Weiblichkeit, Schwäche und Staatenlosigkeit identifizierte Krugel Verschränkungen von Geschlecht, Sexualität und Nationalität mit Antisemitismus und betonte das Gefahrenpotential solcher Chats, da Hildmann seine Anhänger:innen auch zu Investitionen in Waffen und Kampfausrüstung animierte.

VICTOR TSCHISKALE (Berlin) präsentierte seine Untersuchung von Holocaust-relativierenden Analogien bei Twitter. Die im Kontext von Debatten über Kopftuchverbot, Mohammed-Karikaturen, die AfD und die Corona-Maßnahmen artikulierten Gleichsetzungen, Vergleiche und Zitate gebrauchen den Nationalsozialismus als negativen Referenzpunkt. In einem instrumentellen Verhältnis zur Opfergruppe der Jüdinnen und Juden wird Solidarität und Erinnerung lediglich inszeniert. Vielmehr versuchen diese Twitter-User:innen ihre eigene Wahrnehmung von Ungerechtigkeit zu verbalisieren und das eigene Anliegen gegenüber Kritik zu immunisieren. Dadurch unterschieden sich auch die präsentierten Beispiele von klassischer Holocaustrelativierung und -leugnung, da hier der Nationalsozialismus als maximaler negativer Referenzrahmen instrumentalisiert wird.

DANIEL MIEHLING (Berlin) widmet sich in seinem Promotionsprojekt den Plattformen Twitter und Telegram. In seinem Vortrag untersuchte er Möglichkeiten zur Messung von sprachlichen Radikalisierungstendenzen in sozialen Medien. Miehling widmete sich der Frage, welche quantitativen und KI-gestützten Verfahren zur Auswertung von Metadaten zur Untersuchung von Onlineaktivitäten geeignet sind und wie sich das Ausmaß antisemitischer Botschaften in Onlinediskursen messen lässt. Radikalisierungstendenzen können entlang von vier operationalisierbaren Indikatoren gemessen werden: NS-Vergleiche, Superlative, Pejorativlexeme und Dehumanisierung. Dadurch ist es möglich, Radikalisierungstendenzen in großen Textkorpora zu analysieren und so z.B. nachzuweisen, dass gewisse Events („Sturm des Reichstags“) und bestimmte „Superspreader“ (Ken Jebsen oder Eva Hermann) häufig referenziert und weitergeleitet werden und Textbotschaften in diesem Kontext eine zunehmende Radikalisierung aufweisen.

Über die bisher häufigsten Fehler der automatischen Erkennung von Hassrede referierte BETTY VAN AKEN (Berlin). Ihr Forschungsteam des Projektes „NOHATE“ sammelte bisherige Modelle und Ansätze des maschinellen Lernens und aggregierte die unterschiedlichen Methoden unter der Annahme, dass allen bisherigen Modellen und Ansätzen bestimmte Fehler unterlaufen. Das Team identifizierte drei wesentliche Fehler: 1. Inkonsistenz in der Annotation von Kommentaren, sodass Algorithmen nicht erkennen konnten, ob Kommentare toxisch sind; 2. einen zu starken Fokus auf bestimmte Triggerwörter, wodurch Referenzen falsch kategorisiert und alternative Schreibweisen nicht erkannt werden; 3. fehlendes Weltwissen, infolgedessen Algorithmen Kontexte und implizite Bedeutungen nicht erkennen können. Van Aken und ihre Kolleg:innen haben dank der Einführung neuer Algorithmen, die auf Transferlernen basieren, einen Paradigmenwechsel in der Forschungscommunity beobachten können. Modelle werden „vortrainiert“, so können Wörter in Kontexten repräsentiert und Hassrede besser erkannt werden.

HELENA MIHALJEVIC (Berlin) präsentierte ihre Forschungsergebnisse zum Potenzial der Nutzung von Perspective API zur Erkennung von antisemitischen Inhalten in Texten. Perspective API ist ein automatisierter Google-Service, der Texte auf Beleidigungen, Bedrohungen, Angriffe auf Identität und Toxizität untersuchen kann und regelmäßig in der Moderation von Onlineräumen, aber auch in der Forschung genutzt wird. Aufgrund der Definition von Toxizität sollten antisemitische Sprachmuster eigentlich erkannt werden. Die von Mihaljevic hochgeladenen antisemitischen Versuchstexte wurden allerdings nicht immer als toxisch identifiziert. In der genaueren Analyse zeigte sich, dass expliziter und Post-Holocaust-Antisemitismus besser erkannt wurden, während codierter Antisemitismus nicht als toxisch eingestuft wurde. Große Schwierigkeiten sieht Mihaljevic in der Nutzung für Content Moderation auch aufgrund der fehlenden Fähigkeit zur Unterscheidung von affirmativen, kritischen und neutralen Statements im Kontext von antisemitischen Aussagen, sodass eine automatisierte Conent Moderation letztendlich auch zur Bestrafung von Counter-Speech-Versuchen führen kann.

In der abschließenden Keynote betonte GABRIEL WEIMANN (Haifa) die Gefahr, die von digitaler Hassrede ausgeht. Mit fusion of hate beschreibt Weimann die Verschmelzung unterschiedlicher Ideologien, die sich u. a. gegen Frauen, Liberale, Migrant:innen, Muslim:innen und Hispanoamerikaner:innen richten, aber in der Regel Jüdinnen und Juden als Urheber:innen aller gesellschaftlichen Probleme verstehen. Während es schwieriger geworden sei, Hassideologien auf Plattformen wie YouTube, Facebook und Instagram zu verbreiten, identifiziert Weimanns Team das chinesische Videoportal TikTok als relevantestes Medium, da es einerseits besonders unter jungen Menschen große Popularität genießt und anderseits wenig gegen Hassrede und Antisemitismus unternimmt. Auch das Darknet und virtuelle Bibliotheken müssten von Forscher:innen in den Blick genommen werden, da Hassgruppen in einer Art Katz-und-Maus-Spiel ständig Plattformen und Kommunikationsmethoden wechselten, um Überwachung und Verfolgung zu umgehen. Weimann, Sohn zweier Holocaust-Überlebender, erinnerte die Tagungsteilnehmenden an die Gefahr, die von Hassrede ausgeht. Seine Familie kam auch durch Antisemitismus um; auf Worte folgen häufig Taten.

Konferenzübersicht:

Matthias J. Becker (Berlin): Decoding Antisemitism – Impliziter Antisemitismus im europäischen Mainstream

Julia Ebner (London): Antisemitische Muster in Online-Verschwörungsmythos-Communitys

Jannis Niedick (Potsdam): Respond! – Eine Studie über alltägliche Begegnungen mit antisemitischen Inhalten in sozialen Medien

Marcus Scheiber (Berlin): Zur Verwendung von Memes in antisemitischer Online-Kommunikation

Alexa Krugel (Berlin): „Weißt du wer hinter allem steckt?” Covid19-Leugnung, Antisemitismus und Verschwörungserzählungen bei Telegram

Victor Tschiskale (Berlin): Holocaust-Relativierung in deutschsprachigen Diskursen: eine Analyse von Twitter-Debatten 2019–2022

Daniel Miehling (Berlin): Quantitative Detektion judenfeindlicher Textstrukturen: Aspekte zur Messung von Radikalisierungstendenzen in sozialen Medien

Betty van Aken (Berlin): Erkennung von Hassrede mit Deep Learning Verfahren – Technische Herausforderungen und aktuelle Ansätze

Helena Mihaljevic (Berlin): Grenzen und Möglichkeiten automatischer Erkennung von Verschwörungserzählungen in Telegram

Gabriel Weimann (Haifa): New Trends in Online Antisemitism

Editors Information
Published on
Contributor
Classification
Temporal Classification
Regional Classification
Additional Informations
Country Event
Conf. Language(s)
English, German
Language